Запуск вложенных (nested) виртуальных мащин Microsoft Hyper-V на платформе Hyper-V.
Некоторое время назад мы писали о том, как запускать вложенный гипервизор и виртуальные машины (nested VMs) на платформе VMware vSphere. В статье по ссылке показано, что можно запустить как вложенную платформу VMware ESXi, так и вложенный сервер с ролью Hyper-V, при этом можно запускать виртуальные машины в этих ВМ.
А как обстоят дела с вложением Hyper-V в Hyper-V? При попытке поставить роль Hyper-V в виртуальной машине Windows Server 2012 R2 вы получите вот такие сообщения об ошибках:
Hyper-V cannot be installed: A hypervisor is already running.

Если попробуем включить роль через PowerShell получим аналогичную ошибку:
Install-WindowsFeature –Name Hyper-V -ComputerName <computer_name> -IncludeManagementTools -Restart

Но саму роль Hyper-V в виртуальной машине на Windows Server включить можно. Делается это средствами утилиты по обслуживанию образов DISM.exe. Если вы используете Windows 8 как гипервизор, то потребуется скачать еще и пакет Windows Assessment and Deployment Kit (ADK) for Windows 8.
Выполняем следующие команды в консоли:
DISM /Online /Enable-Feature /FeatureName: Microsoft-Hyper-V
DISM /Online /Enable-Feature /FeatureName: Microsoft-Hyper-V-Management-Clients

Далее роль встанет, и можно запустить консоль управления виртуальными машинами.
Но при попытке запустить виртуальную машину будет выведена ошибка:
VM failed to start. Failed to start the virtual machine because one of the Hyper-V components is not running.

Для этой проблемы пока решения нет. Виртуальную машину вы не сможете запустить на Hyper-V никак. Хотя на VMware vSphere 5.x все будет прекрасно работать.
Здесь же вы только сможете сделать такие вложенные ВМ узлами Failover Cluster для целей тестирования или снятия скриншотов:


Все это происходит из-за того, что Microsoft не хочет предоставлять виртуальным машинам средства эмуляции техник аппаратной виртуализации Intel VT и AMD-V, хотя многие пользователи и спрашивают об этом. По мнению сотрудников Microsoft, которых можно встретить на форумах technet, "это не нужно". Таги: Hyper-V, Nested, VMachines, ESXi, Microsoft, Windows, Server
Пара новых видео о VMware Horizon 6: производительность 3D-графики в режиме vDGA и интеграция с VSAN.
Не так давно компания VMware объявила о скором выходе новой версии пакета продуктов для создания инфраструктуры виртуальных и физических десктопов предприятия - VMware Horizon 6. Помимо прочего, в Horizon 6 будет два существенных улучшения - режим vDGA будет работать заметно лучше при отображении графики в виртуальных ПК, а кроме того решение VMware View будет полностью интегрировано с продуктом Virtual SAN для создания кластеров хранилищ на базе локальных дисков хостов ESXi.
Об этом, собственно, компания VMware выпустила интересные видео, которые нужно посмотреть всем тем, кто всерьез задумался о внедрении решения для виртуализации настольных ПК в этом сезоне.
Итак, "VMware Horizon 6 3D Performance with vDGA" (в конце интересно понаблюдать за лысым мужиком):
Видео про интеграцию с VSAN - "VMware Horizon 6 Integration with VMware Virtual SAN" (ранее добавленное видео от VMware на эту тему больше недоступно):
Таги: VMware, Horizon, Video, VDI, View, Update
Бесплатный онлайн-курс "VMware Virtual SAN Fundamentals [V5.5] ".
Мы уже много писали о решении VMware для создания кластеров хранилищ - технологии Virtual SAN, которая позволяет построить отказоустойчивую архитектуру хранения на базе локальных дисков серверов VMware ESXi.
На днях компания VMware выпустила очень полезный, а глвное бесплатный, онлайн-курс VMware Virtual SAN Fundamentals [V5.5], посвященный базовым принципам работы продукта и его администрирования.

Курс состоит из четырех модулей:
Module 1: Introduction to Virtual SAN
- Software-Defined Storage
- The Benefits of Virtual SAN
- Advantages of Virtual SAN over Traditional Storage and VSA.’
Module 2: Software-Defined Data Center
- Use Cases
- Virtual Desktop Infrastructure (VDI)
- Test and development
- Disaster recovery
- Management cluster storage
- DMZ
- Remote office/branch office
- POC Pre-Qualification Checklist
Module 3: Virtual SAN Architecture
- Virtual SAN Architecture
- Virtual SAN Objects and Components
- Virtual SAN prerequisites
- Virtual SAN cluster sizing requirements
Module 4: Configuring Virtual SAN (Optional)
- Enable Virtual SAN on a cluster
- Create disk group
- Storage policies
- Expand Virtual SAN cluster
Таги: VMware, vSphere, Обучение, ESXi, Virtual SAN, VSAN
Обновилось мобильное приложение VMware vSphere Mobile Watchlist.
Не так давно мы уже писали про приложение VMware vSphere Mobile Watchlist, которое позволяет мониторить виртуальную инфраструктуру с телефона на Android и iOS / iPhone, а также своевременно обнаруживать и решать проблемы удаленно. Недавно, 21 апреля, это приложение было обновлено - теперь новые версии (1.3) доступны для Android и iOS.
Новые возможности vSphere Mobile Watchlist:
- Добавлена поддержка хостов ESXi для мониторинга и решения проблем (раньше были только виртуальные машины).
- Улучшенное отображение связанных объектов (например, можно вывести все ВМ на хостах, хранящихся на определенном хранилище или в определенной ести), а также их алертов.
- Добавление хостов и виртуальных машин в список отслеживания напрямую из связанных объектов.
- Операции с набором хостов: включение/выключение, сетевые настройки и режим обслуживания (maintenance mode).
- Улучшенный интерфейс и система навигации по экранам.
- Несколько багофиксов.
Интересное обзорное видео продукта от Владана:
Пока возможности продукта слабоваты (например, нет vMotion и прочего), но сам факт того, что он развивается достаточно быстро (первая версия - в феврале), говорит о том, что скоро он будет вполне юзабелен.
Комьюнити по продукту доступно по этой ссылке. В качестве платформы поддерживается VMware vSphere 5 и более поздние версии.
Таги: VMware, vSphere, Mobile, Watchlist, Update
OpenSSL HeartBleed и VMware vSphere - вышли патчи 5.5 Update 1a и 5.5c.
Пару недель назад мы писали об уязвимости OpenSSL HeartBleed, которая коснулась виртуальной инфраструктуры VMware vSphere, а также других продуктов компании VMware. Напомним, что эта уязвимость позволяла злоумышленнику получить доступ к памяти сервера, где могут храниться логины/пароли и другая информация пользователей.
На прошлой неделе компания VMware выпустила фиксы для этого бага в виде обновлений VMware vSphere 5.5 Update 1a и VMware vSphere 5.5c, подробнее о которых написано в специальной статье KB 2076665.

Но тут, как часто бывает, вышла оказия. Нашелся еще один баг в VMware vSphere 5.5 Update 1 - оказывается, если для этого билда использовать NFS-хранилища, то они периодически отваливаются, то есть переходят в состояние APD (All paths down). Это касается и VSA-хранилищ. В логах при этом наблюдается что-то вроде такого:
2014-04-01T14:35:08.074Z: [APDCorrelator] 9413898746us: [vob.storage.apd.start] Device or filesystem with identifier [12345678-abcdefg0] has entered the All Paths Down state.
2014-04-01T14:35:08.075Z: [APDCorrelator] 9414268686us: [esx.problem.storage.apd.start] Device or filesystem with identifier [12345678-abcdefg0] has entered the All Paths Down state.
2014-04-01T14:36:55.274Z: No correlator for vob.vmfs.nfs.server.disconnect
2014-04-01T14:36:55.274Z: [vmfsCorrelator] 9521467867us: [esx.problem.vmfs.nfs.server.disconnect] 192.168.1.1/NFS-DS1 12345678-abcdefg0-0000-000000000000 NFS-DS1
2014-04-01T14:37:28.081Z: [APDCorrelator] 9553899639us: [vob.storage.apd.timeout] Device or filesystem with identifier [12345678-abcdefg0] has entered the All Paths Down Timeout state after being in the All Paths Down state for 140 seconds. I/Os will now be fast failed.
2014-04-01T14:37:28.081Z: [APDCorrelator] 9554275221us: [esx.problem.storage.apd.timeout] Device or filesystem with identifier [12345678-abcdefg0] has entered the All Paths Down Timeout state after being in the All Paths Down state for 140 seconds. I/Os will now be fast failed.
Решения для этой проблемы пока нет, поэтому рекомендуется просто откатиться на VMware vSphere 5.5 (без Update 1), если вы используете NFS-хранилища или модуль VSA.
Так вот, поэтому vSphere 5.5 Update 1 и просто vSphere 5.5 надо обновлять разными патчами для устранения уязвимости OpenSSL HeartBleed (чтобы на 5.5 не накатилась проблема с APD):
VMware ESXi 5.5, Patch Release ESXi550-201404001
Это патч только для фикса хостов
ESXi 5.5 Update 1
VMware ESXi 5.5, Patch Release ESXi550-201404020
А этот патч для фикса хостов разных версий 5.5 за исключением ESXi 5.5 Update 1, а именно:
ESXi 5.5.0 hosts
ESXi 5.5.0 hosts patched with ESXi550-201312101-SG bulletin
ESXi 5.5.0 hosts patched with ESXi550-201312401-BG bulletin
ESXi 5.5.0 hosts patched with ESXi550-201403101-SG bulletin
ESXi 5.5.0 hosts patched with ESXi-5.5.0-20131201001s-standard image profile
ESXi 5.5.0 hosts patched with ESXi-5.5.0-20131201001s-no-tools image profile
ESXi 5.5.0 hosts patched with ESXi-5.5.0-20131204001-standard image profile
ESXi 5.5.0 hosts patched with ESXi-5.5.0-20131204001-no-tools image profile
ESXi 5.5.0 hosts patched with ESXi-5.5.0-20140301001s-standard image profile
ESXi 5.5.0 hosts patched with ESXi-5.5.0-20140301001s-no-tools image profile
Для серверов vCenter есть также соответствующие патчи:
VMware рекомендует сначала обновить серверы vCenter, а потом уже обновлять хосты ESXi. Сама процедура обновления описана в KB 2076692.
После обновления, на хостах ESXi надо перегенерить сертификаты и сменить пароли root. Делается это так:
cd /etc/vmware/ssl
/sbin/generate-certificates
chmod +t rui.crt
chmod +t rui.key
passwd root
Ну и надо отметить, что для всех остальных продуктов VMware также вышли фиксы уязвимости OpenSSL HeartBleed. Информация о них доступна по этой ссылке: http://www.vmware.com/security/advisories/VMSA-2014-0004.html. Таги: VMware, Security, vSphere, ESXi, vCenter, Bug, Bugs, NFS, Storage
Анонсирован VMware Horizon 6 - обновление View, Workspace и конкуренция с Citrix.
В конце прошлой недели компания VMware сделала анонс долгожданного мажорного обновления своих продуктов для виртуализации ПК предприятия - VMware Horizon 6. С момента релиза VMware Horizon View 5.3 прошло всего 5 месяцев, а компания VMware вновь идет на штурм рынка VDI, делая очень серьезную заявку на победу над Citrix. Итак, давайте разбираться, что к чему. Таги: VMware, Horizon, View, Updtae, ESXi, vSphere, Mirage, Workspace, VDI
Уязвимость OpenSSL HeartBleed и серверы VMware vSphere - таки да, есть.
На днях ИТ-сообщество переполошилось из-за очень неприятного факта - уязвимости OpenSSL HeartBleed, которая была обнаружена в версии защищенного протокола OpenSSL 1.0.1 и 1.0.2-beta. Уязвимость получилась из-за того, что отсутствует необходимая проверка границ в одной из процедур расширения Heartbeat (RFC6520) для протокола TLS/DTLS.

Это позволяет злоумышленнику получить доступ к оперативной памяти сервера, где хранятся, в том числе, сами секретные ключи, имена и пароли пользователей, а также много чего еще. После того, как нехороший товарищ получил, что хотел, обнаружить факт его проникновения в систему невозможно. За один такт можно получить сегмент в 64 КБ памяти, но делать это такими кусочками можно сколь угодно долго, постоянно обновляя соединение.
Как пишет Хабр, 1 января 2012 года, Robin Seggelmann отправил, а steve проверил commit, который добавлял HeartBeat в OpenSSL. Именно этот коммит и привнес уязвимость, которую назвали Heartbleed. То есть, пару лет любой желающий мог вылавливать данные из памяти где-то 2/3 всех защищенных серверов мира. Эта версия OpenSSL используется в веб-серверах Nginx и Apache, в почтовых серверах, IM-системах, VPN, а также еще очень-очень много где. Сертификаты скомпрометированы, логины/пароли, возможно, утекли к посторонним людям. Кошмар, бардак, ядерная война.
Например, уязвимость есть вот в этих Linux-дистрибутивах:
- Debian Wheezy (стабильная), OpenSSL 1.0.1e-2+deb7u4)
- Ubuntu 12.04.4 LTS, OpenSSL 1.0.1-4ubuntu5.11)
- CentOS 6.5, OpenSSL 1.0.1e-15)
- Fedora 18, OpenSSL 1.0.1e-4
- OpenBSD 5.3 (OpenSSL 1.0.1c) и 5.4 (OpenSSL 1.0.1c)
- FreeBSD 8.4 (OpenSSL 1.0.1e) и 9.1 (OpenSSL 1.0.1c)
- NetBSD 5.0.2 (OpenSSL 1.0.1e)
- OpenSUSE 12.2 (OpenSSL 1.0.1c)
Ну и, конечно же, серверы VMware ESXi 5.5 (build 1331820) и ESXi 5.5 Update 1 (build 1623387) также имеют эту уязвимость. Проверить это просто - выполняем команду:
# vmware -vl
VMware ESXi 5.5.0 build-1331820
VMware ESXi 5.5.0 GA
# openssl version -a
OpenSSL 1.0.1e 11 Feb 2013
built on: Tue Feb 26 16:34:26 PST 2013
Видим, что здесь версия 1.0.1e, которая подвержена уязвимости.
А вот для пользователей VMware ESXi 5.1 бонус - уязвимости тут нет, так как используется другой бранч OpenSSL (0.9.8y):
# vmware -vl
VMware ESXi 5.1.0 build-1612806
VMware ESXi 5.1.0 Update 2
# openssl version -a
OpenSSL 0.9.8y 5 Feb 2013
built on: Wed Mar 20 20:44:08 PDT 2013
Есть даже вот такая табличка с VMware Communities, где показано, какие компоненты и каких версий подвержены уязвимости (выделенные цветом - подвержены):
| Product
| Build
| OpenSSL Version
|
| ESXi 5.1 U2 |
VMware ESXi 5.1.0 build-1612806 |
OpenSSL 0.9.8y 5 Feb 2013 |
| ESXi 5.5 GA (no U1) |
VMware ESXi 5.5.0 build-1331820 |
OpenSSL 1.0.1e 11 Feb 2013 |
| vCenter 5.1 U1 |
VMware vCenter Server 5.1.0 Build 1235232 |
OpenSSL 0.9.8t 18 Jan 2012 |
| vCenter 5.1 U2 |
<unknown> |
OpenSSL 0.9.8y 5 Feb 2013 |
| vCenter 5.5 GA |
<unknown> |
OpenSSL 1.0.1e 11 Feb 2013 |
|
|
OpenSSL 0.9.8y 5 Feb 2013 |
| vMA 5.0 virtual appliance |
vMA 5.0.0 BUILD-724898 |
OpenSSL 0.9.8j-fips 07 Jan 2009 |
| vMA 5.1 virtual appliance |
vMA 5.1.0 BUILD-1062361 |
OpenSSL 1.0.0c 2 Dec 2010 |
Фикса бага пока нет - но он ожидается в ближайшие дни (возможно, на момент прочтения вами этой заметки он уже выйдет). За развитием ситуации можно также следить тут.
Подробное описание уязвимости можно прочитать на специальном сайте: http://heartbleed.com/.
Проверить свой публичный сайт на наличие уязвимой версии протокола можно вот тут: http://filippo.io/Heartbleed/. Таги: VMware, vSphere, Security, Bug, Bugs, ESXi, vCenter
VMware HA не перезапускает виртуальные машины при выключении/рестарте хоста ESXi через DCUI.
Интересную особенность тут обнаружил один из читателей Дукана Эппинга: оказывается в VMware vSphere 5.5 Update 1 при перезапуске/выключении хоста VMware ESXi через консоль DCUI рестарта его виртуальных машин посредством механизма VMware HA не происходит.
Ну то есть, если выключение ESXi делать по клавише <F12> в консоли сервера:

Действительно, в этом случае в логе FDM можно увидеть вот такую запись:
2014-04-04T11:41:54.882Z [688C2B70 info 'Invt' opID=SWI-24c018b] [VmStateChange::SavePowerChange] vm /vmfs/volumes/4ece24c4-3f1ca80e-9cd8-984be1047b14/New Virtual Machine/New Virtual Machine.vmx curPwrState=unknown curPowerOnCount=0 newPwrState=powered off clnPwrOff=true hostReporting=host-113
Это означает, что VMware vSphere считает, что виртуальные машины были выключены корректно (администратором/хостом), а значит их перезапуск механизмом VMware HA не требуется (параметр clnPwrOff=true).
Совсем другая картина, если мы делаем ребут или выключение VMware ESXi из VMware vSphere Client или vSphere Web Client:

В этом случае в логе FDM мы обнаружим что-то вроде такого:
2014-04-04T12:12:06.515Z [68040B70 info 'Invt' opID=SWI-1aad525b] [VmStateChange::SavePowerChange] vm /vmfs/volumes/4ece24c4-3f1ca80e-9cd8-984be1047b14/New Virtual Machine/New Virtual Machine.vmx curPwrState=unknown curPowerOnCount=0 newPwrState=powered on clnPwrOff=false hostReporting=host-113
Здесь уже мы видим, что clnPwrOff=false, а значит vSphere полагает, что что-то пошло не так и VMware HA перезапустит виртуальные машины "отказавшего" хоста.
Это поведение актуально для VMware vSphere 5.5 Update 1, но пользователи в комментариях к статье Дункана отмечают, что подобное поведение наблюдается и для vSphere 5.0. Поэтому будет не лишним знать об этом всем тем, кто после настройки отказоустойчивого кластера VMware HA тестирует его работоспособность путем перезагрузки хостов ESXi. Таги: VMware, vSphere, HA, VMachines, ESXi, DCUI, Troubleshooting
Пример использования кластера VMware Virtual SAN для резервной инфраструктуры vSphere (+Replication / SRM).
Недавно компания VMware начала серию статей про совместимость ее решения для организации кластеров хранилищ Virtual SAN с различными продуктами (например, с vCloud Automation Center и решением для резервного копирования vSphere Data Protection). Но многих пользователей интересует юзкейс использования VSAN для катастрофоустойчивой инфраструктуры, управляемой VMware Site Recovery Manager. А именно, с точки зрения экономии, наиболее интересным вариантом является создание резервной инфраструктуры на базе хранилищ локальных дисков серверов VMware ESXi, бэкэнд которых обеспечивается кластером хранилищ VSAN:

Такая схема полностью поддерживается со стороны VMware, как для решения vSphere Replication, обеспечивающего репликацию виртуальных машин на резервный сайт и его VSAN-хранилища, так и для vCenter Site Recovery Manager, обеспечивающего оркестрацию процесса.
Естественно, на данный момент поддерживается совместимость SRM+VSAN только на базе технологии асинхронной репликации vSphere Replication, поэтому такой сценарий не подойдет тем, кто хочет обеспечить RPO=0 для сервисов виртуальных машин в случае массового сбоя или катастрофы на основной площадке. Но для сценариев с RPO=15 минут такая схема вполне подойдет.
Зато такая схема не требует больших вложений в резервную инфраструктуру - не нужно покупать дорогостоящие FC-хранилища, SAN-коммутаторы и прочее. Для организации такой схемы резервирования можно использовать как только механизм vSphere Replication (но тогда потребуются регулярные ручные операции + ручное сопровождение в случае сбоя), так и автоматизировать процесс с помощью vCenter SRM.
При этом SRM может обеспечить следующие возможности:
- Автоматизированный Failover и Failback (нужно только нажать кнопку).
- Управление процессом восстановления из консоли vCenter.
- Возможность запланированной миграции сервисов на резервную площадку (при этом основную площадку можно сделать резервной).
- Несколько точек для восстановления в случае порчи данных (например, надо откатиться на день назад).
- Возможность протестировать процесс восстановления, не затрагивая продакшен-среду.
На тему всего этого компания VMware сделала отличное поясняющее видео, в котором показан процесс переезда с традиционной SAN-инфраструктуры на новую площадку, где хранилища построены на базе технологии VMware Virtual SAN:
Таги: VMware, Virtual SAN, SRM, Video, VSAN, ESXi, vSphere, DR, Enterprise
Режим высокой производительности для требовательных виртуальных машин в VMware vSphere 5.5 (Latency Sensitivity).
Не все администраторы VMware vSphere знают о том, что в версии vSphere 5.5, компания VMware сделала специальную настройку для виртуальных машин - Latency Sensitivity. Она позволяет снизить издержки на виртуализацию для виртуальной машины в случае, когда требуется ее производительность близкая к нативной (то есть почти без потерь на нужды слоя виртуализации).
Найти ее можно в vSphere Web Client, если выбрать нужную ВМ, перейти на вкладку Manage, далее выбрать Settings->VM Options и в разделе Advanced Settings перейти на опцию Latency Sensitivity:

Там можно выбрать значения Low, High, Medium и Normal, однако значения Medium и Normal в vSphere 5.5 являются экспериментальными, поэтому пока можно использовать только Low (по умолчанию) и High (режим высокой производительности для чувствительных нагрузок).

Детально о том, что конкретно делает этот режим, можно почитать в документе "Deploying Extremely
Latency-Sensitive
Applications in
VMware vSphere 5.5", мы же здесь приведем основные моменты.
Итак, если вы ставите Latency Sensivity для виртуальной машины в значение High, происходит следующее:
Виртуальная машина получает эксклюзивный доступ к физическим ресурсам хоста
- Планировщик CPU хоста ESXi определяет возможность того, может ли быть предоставлен эксклюзивный доступ виртуального процессора vCPU к физическому процессору (ядру) сервера pCPU, учитывая реальное состояние процессора (нагруженность, over-commit и прочее). При возможности происходит резервирование pCPU для виртуального процессора на 100%. В этом случае никакие другие vCPU и трэды не могут быть исполнены на этом pCPU (включая VMkernel I/O threads).
- Возможность latency-sensitivity требует от пользователя установки резервирования памяти (Memory Reservation), чтобы выделенная виртуальной машине память не была ненароком отдана другой машине средствами Memory Ballooning. Это позволит дать гарантию, что машина всегда будет иметь в своем распоряжении четко выделенный сегмент физической оперативной памяти хоста ESXi, даже в случае недостатка ресурсов на хосте.
Обход слоя виртуализации
- Как только машина получила эксклюзивный доступ к pCPU, ее виртуальный процессор может напрямую взаимодействовать с его ресурсами в обход планировщика VMkernel. Это ликвидирует затраты на переключение между VMkernel и монитором виртуальных машин (VMM), однако переключения между исполнением кода гостевой ОС и VMM по-прежнему остаются (но это делается очень быстро за счет технологий аппаратной виртуализации, которые есть сейчас в любом процессоре).
Тюнинг механизмов виртуализации на хосте
- Когда в качестве виртуального сетевого адаптера (VMNIC) виртуальной машины используется устройство VMXNET3, то функция Interrupt coalescing и поддержка LRO отключаются, чтобы уменьшить время отклика и джиттер. Если виртуальной машине не нужны такие функции, как vMotion, NetIOC
и Fault tolerance, то можно и нужно использовать механизмы проброса сетевого устройства напрямую в виртуальную машину (pass-through) через механизм Single-root I/O
virtualization (SR-IOV). Поддержка этого механизма появилась еще в VMware vSphere 5.1, но была существенно доработана в версии 5.5.
Вкратце это все, но больше новых подробностей о требовательных ко времени отклика виртуальных машинах можно почерпнуть из приведенного выше документа. Таги: VMware, vSphere, Performance, ESXi, VMachines
StarWind VSA Builder - быстрый способ развернуть виртуальную машину с ПО StarWind iSCSI SAN V8 на сервере VMware ESXi.
Как знают все те, кто интересуется решением для создания отказоустойчивых хранилищ StarWind iSCSI SAN, совсем недавно вышла обновленная версия StarWind V8 RC, которая пришла на смену StarWind V8 Beta 3.
Совсем скоро появится релизная восьмая версия продукта, в которой будет масса нововведений, в том числе обновленное средство для деплоя ПО StarWind на серверы VMware ESXi - StarWind VSA Builder.
При установке этот компонент называется VSAN Deployment Tools:

Для начала процесса развертывания ПО StarWind нужно нажать на иконку Deploy VSAN в Management Console:

Указываем параметры сервера VMware ESXi:

Указываем путь к ISO-образу с установкой Windows Server или скачиваем его:

Далее указываем исошник к инсталляции StarWind или также скачиваем:

После чего указываем хранилище хоста VMware ESXi, где будет размещена виртуальная машина:

Далее указываем параметры виртуального диска StarWind - то есть, непосредственного хранилища виртуальных машин на диске полученной машины:

Ну и после всего этого начнется развертывание виртуальной машины с ПО StarWind внутри:

По окончанию процесса установки, вы сможете открыть в полученной ВМ StarWind Management Console и управлять виртуальными хранилищами, создать отказоустойчивый кластер и многое другое. Саму эту виртуальную машину можно использовать как шаблон для развертывания новых узлов кластера StarWind.
Скачать StarWind iSCSI SAN V8 Release Candidate можно по этой ссылке.
Таги: StarWind, ESXi, iSCSI, SAN, VSAN, Virtual Appliance
Настройка доступа пользователей из трастовых доменов к VMware vSphere / ESXi.
Как многие знают, в VMware vSphere 5.5 был полностью переписан движок сервисов аутентификации Single-Sign-On (SSO), так как раньше VMware использовала стороннее решение. Теперь же нет старой базы RSA, а контроллеры доменов Active Directory не нужно указывать напрямую. Механизм аутентификации стал проще, но при этом эффективнее.
Итак, например, у вас такая задача - есть домен, в который вы заводите серверы VMware ESXi и vCenter, и администраторы которого будут рулить виртуальной инфраструктурой. Но у вас есть и второй трастовый домен, пользователей которого вы бы также хотели наделять полномочиями по управлению своей частью инфраструктуры. Тут надо отметить, что полноценная поддержка односторонних и двусторонних AD-трастов появилась только в vSphere 5.5, поэтому в более ранних версиях платформы сделать этого по-нормальному не получится.
Итак, как мы помним, завести серверы VMware ESXi в домен AD можно в раздеде Configuration-> Authentication Services

Тут можно добавить основной домен, но в строчке Trusted Domain Controllers мы увидим пустоту, так как настраивать это нужно не через "толстый" vSphere Client, который скоро перестанет поддерживаться, а через "тонкий" vSphere Web Client, в котором возможности добавления источников аутентификации для сервера SSO весьма обширны.
Итак:
- Открываем Sphere Web Client по ссылке https://<адрес сервера vCenter>:9443/vsphere-client
- Заходим обязательно как administrator@vsphere.local. Именно под этим пользователем - обычный админ не прокатит - раздел SSO будет скрыт.
- Идем в раздел
Administration > Single Sign-On > Configuration

Если этого раздела в vSphere Web Client вы не видите, значит вы зашли не под administrator@vsphere.local.
Далее идем в раздел Identity Sources и там нажимаем "+":

Добавляем новый источник:

Добавляем источник именно как "Active Directory as a LDAP Server", так как основной источник Active Directory (первый вариант) может быть добавлен только один.
Вот пример заполнения данных по домену:

Тут не заполнены только обязательные поля "Base DN for users" и "Base DN for groups". Если вы хотите искать пользователей во всем каталоге домена, то укажите в обоих этих полях просто подобное значение (из примера):
DC=virten,DC=local
Далее нужно протестировать соединение (Test Connection).
После того, как новый домен будет добавлен как Identity Source, его можно будет увидеть при добавлении любого разрешения на вкладке Permissions:

Вот так все и просто. Добавляете пользователя и даете ему права на различные объекты виртуальной инфраструктуры VMware vSphere. Таги: VMware, ESXi, Active Directory, vSphere, Authentication, Обучение
Сколько стоит VMware Virtual SAN. Цены + демо продукта.
В последнее время мы много писали о решении VMware Virtual SAN (например, тут, тут и тут), которое, казалось бы, нахваливали со всех сторон. Само по себе решение весьма неплохое, но в этом посте мы положим половничек дегтя в выглядящую распрекрасно бочку меда VSAN.
Итак, VMware Virtual SAN поставляется в трех вариантах:
- VMware VSAN с лицензией на процессоры хост-серверов VMware ESXi.
- VSAN with Data Protection - вместе с лицензией на средство резервного копирования VMware vSphere Data Protection.
- VSAN for Desktop - для размещения виртуальных ПК в инфраструктуре VMware Horizon View. Лицензируется на пользователя (именованного или по одновременным подключениям), вне зависимости от объема виртуальных ПК и используемых процессоров хостов.
Американская стоимость этих вариантов такова:

Как мы видим, если наш сервер VMware ESXi двухпроцессорный, то за лицензию VSAN на один сервер придется заплатить почти $5K. Что превышает стоимость некоторых неплохо упакованных серверов. Ах, да - мы забыли поддержку, которую обязательно приобретать с большинством продуктов VMware (без нее купить нельзя).
Давайте же взглянем на российский ценник:
- VMware Virtual SAN 5 for 1 processor (ST-VSAN-C) = $2 744,50
- Basic Support/Subscription for VMware Virtual SAN 5 for 1 processor (ST-VSAN-G-SSS-C) = $ 576,40 * 1,18 (НДС) = $680,15
Итого = $3424,65 * 2 (два процессора) = $6849,30
С учетом сегодняшнего курса доллара, который скачет как волшебный кролик, получается весьма (не)приличная сумма за программку для создания кластеров хранилищ.
Ну вы помните, да, что еще вообще-то нужно покупать VMware vSphere? Давайте взглянем, сколько сейчас стоит лицензия VMware vSphere Enterprise Plus на рассматриваемый нами сервер:
- VMware vSphere 5 Enterprise Plus for 1 processor (VS5-ENT-PL-C) = $4 543,50
- Basic Support/Subscription for VMware vSphere 5 Enterprise Plus for 1 processor for 1 year (VS5-ENT-PL-G-SSS-C) = $954,20 * 1,18 (НДС) = $1125,95
Итак, стоимость VMware vSphere на 1 сервер составляет: $5669,45 * 2 (два процессора) = $11 338,90.
Ну что ж, мы близки к катарсису. Сложим стоимость лицензий VMware vSphere и Virtual SAN для одного двухпроцессорного сервера:
$6849,30 + $11 338,90 = $ 18 188,20
Восемнадцать штук баксов за софт на сервере! Может это и нормально, кто знает. Этот пост не о том, как это дорого, а о том, во сколько это вам обойдется. Так-то.
Ну и для тех, кто готов идти дальше несмотря ни на что, обновились демки решения Virtual SAN на сайте проекта VMware Product Walkthrough Demos:

Таги: VMware, Virtual SAN, VSAN, Pricing, vSphere, Enterprise
VMware VSAN Policies - политики для отказоустойчивого кластера хранилищ VMware vSphere.
Как многие уже слышали, совсем недавно вышла первая версия продукта VMware VSAN, который был выпущен одновременно с релизом обновленной платформы VMware vSphere 5.5 Update 1. Многие уже принялись тестировать это решение, которое (что похвально) теперь работает производительнее своей же бета-версии и в то же время линейно масштабируется по количеству узлов ESXi с точки зрения производительности... Таги: VMware, VSAN, Storage, Обучение, VMDK, VMachines, HA, vSphere, ESXi
Некоторые аспекты применения режимов vSGA и vDGA в решении VMware Horizon View.
Мы много писали про функции ускорения 3D-графики в решении для виртуализации настольных ПК VMware View (например, тут и тут). Это режимы vSGA и vDGA, поддержка которых появилась еще в версии VMware View 5.2, но полноценно была добавлена только в версии VMware View 5.3. Ниже мы расскажем о некоторых аспектах использования этих режимов, опираясь на полезнейший документ "Graphics Acceleration in VMware
Horizon View Virtual Desktops", где помимо теории даны и практические советы по настройке инфраструктуры для работы виртуальных машин в режимах vSGA и vDGA.
Итак, начнем с определений:
- Soft 3D - рендеринг 3D-картинки без использования адаптера на основе программных техник с использованием памяти сервера.
- vDGA - выделение отдельного графического адаптера (GPU) одной виртуальной машине.
- vSGA - использование общего графического адаптера несколькими виртуальными машинами.
Сразу отметим, что забота о поддержке режимов vDGA и vSGA лежит на плечах вендоров графических адаптеров. Пока этим в достаточной степени прославилась только компания NVIDIA.
Ниже рассмотрим картинку, на которой представлены варианты использования графических режимов для различных типов задач, которые предполагаются для работников, использующих виртуальные ПК:

Условно тут можно выделить 4 типа пользователей, касательно графически интенсивных нагрузок:
- Task Worker - обычный сотрудник (например, программист или менеджер по продажам), который не использует специальных графических программ и тяжелых нагрузок. Для него вполне подойдет софтверный рендер
- Knowledge Worker - этот человек имеет в своем распоряжении некоторое программное обеспечение, трубующее работы с графической подсистемой (например, иногда запускает Adobe Photoshop или смотрит видеоролики). Некоторым (в зависимости от частоты использования этих средств) вполне подойдет софтверный рендер, но кому-то будет нужная машина с поддержкой аппаратного рендеринга (но, скорее всего, в режиме vSGA).
- Desktop Power User - этот человек уже интенсивно работает с графическими пакетами, возможно, на нескольких мониторах. При этом используются графические библиотеки OpenGL или DirectX (но не самых последних версий).
- Workstation User - этот пользователь профессионально использует виртуальный десктоп для графически-интенсивных нагрузок (например, CAD-приложения или приложения для обработки и кодирования видео). Отличительная черта таких пользователей - профессиональное использование основного инструмента, требовательного к графике.
Соответственно, на диаграмме видно, когда и какой режим работы с графикой нужно использовать, в зависимости от категории пользователей. Практически это выглядит следующим образом: например, обычные офисные приложения вполне будут работать в режиме vSGA:

А вот некоторые пользователи тяжелых графических программ (например, Adobe Premiere) будут чувствовать себя комфортно только в режиме vDGA:

Режим vSGA
Идем дальше. Режим vSGA - это самый простой и эффективный способ использовать аппаратное ускорение для 3D-графики в виртуальных машинах. Он ограничивает системного администратора только объемом видеопамяти, которой, однако, у адаптера тоже не бесконечно много. На март этого года для режима vSGA поддерживаются следующие адаптеры:
- Nvidia GRID K1
- NvidiaGRID K2
- Nvidia Quadro 4000
- Nvidia Quadro 5000
- Nvidia Quadro 6000
- Nvidia Tesla M2070Q
В режиме vSGA есть три варианта использования:
- Automatic - аппаратное ускорение будет использовано только в случае доступного и подходящего GPU на хосте, где эта ВМ запущена. Если такого нет - то используется софтверный рендер. Когда машина переместится на подходящий хост - включится режим vSGA.
- Software only - всегда используется софтверный рендер (даже если есть свободные ресурсы GPU). Эта конфигурация работает на любом хосте.
- Hardware only - обязательное использование аппаратного ускорения. В этом случае проверяются условия при старте или миграции виртуальной машины на другой хост. Если они не выполняются - этого не происходит.
- Disabled - 3D-рендеринг не используется вовсе.

В плане драйвера гостевой ОС используется стандартный драйвер VMware SVGA 3D graphics. Но на сам ESXi нужно поставить специальные VIB-пакеты, которые будут обеспечивать работу виртуальных машин в режиме vSGA. Например, драйвер для ESXi 5.1 находится тут, а для ESXi 5.5 - тут.
Режим vDGA
Этот режим предназначен для случая, когда отдельный GPU нужно целиком и полностью отдать виртуальной машине. Этот режим основан на технологии VMware vSphere DirectPath I/O (то есть, прямой проброс устройств). Соответственно, здесь важно количество GPU на хосте VMware ESXi, которое и определяет максимальное количество запущенных виртуальных машин с поддержкой vDGA. Ну а максимальное число таких GPU на сервере определяется числом слотов PCIe x16 (нужно множить на число GPU у одного адаптера).
Например, на сервере Dell R720 может быть две карты NVIDIA GRID K2, каждая из которых имеет 2 GPU. Таким образом, максимальное количество виртуальных машин с поддержкой vDGA может быть четыре штуки.
В случае с vDGA используется драйвер от вендора, который и занимается работой с нижележащим оборудованием и видеокартой. На данный момент режим vDGA поддерживается для следующих графических адаптеров:
- Nvidia GRID K1
- Nvidia GRID K2
- Nvidia Quadro K2000
- Nvidia Quadro K4000
- Nvidia Quadro K5000
- Nvidia Quadro K6000
- Nvidia Quadro 1000M
- Nvidia Quadro 2000
- Nvidia Quadro 3000M
- Nvidia Quadro 4000
- Nvidia Quadro 5000
- Nvidia Quadro 6000
- Nvidia Tesla M2070Q
Кстати, при использовании таких адаптеров нужно учитывать электропитание серверов, так как, например, NVIDIA Quadro 6000 GPU использует до 200 Ватт мощности.
Если объединить специфику режимов софтверного рендера, vSGA и vDGA получится вот такая табличка:
| Возможность |
Software 3D rendering |
vSGA |
vDGA |
| Тип пользователя |
Task worker |
Knowledge worker/ Power user |
Workstation user |
| Режим |
Software shared (программная эмуляция) |
Hardware shared (шаринг аппаратных ресурсов) |
Hardware dedicated (выделение аппаратных ресурсов) |
| Выделенный GPU |
Нет |
Нет |
Да |
| Степень консолидации десктопов на хосте |
Очень большая |
Большая |
Очень малая |
| Библиотека DirectX |
Нет |
Да (только 9) |
Да (9, 10, 11) |
| Библиотека OpenGL |
Нет |
Да (только 2.1) |
Да (2.1, 3.x, 4.1x) |
| Технология CUDA |
Нет |
Нет |
Да |
| Кодирование видео |
Нет |
Нет |
Да |
| Тип драйвера |
VMware SVGA 3D graphics driver |
VMware SVGA 3D graphics driver |
Отдельный драйвер от NVIDIA |
| Поддержка vMotion |
Да |
Да |
Нет |
| Поддержка HA |
Да |
Да |
Нет |
| Поддержка DRS |
Да |
Да |
Нет |
| Поддержка связанных клонов к этой ВМ |
Да |
Да |
Нет |
Тут надо отметить, что как для vSGA, так и для vDGA режимов поддерживаются только гостевые ОС Windows 7 (для vSGA - x86 и x64, для vDGA - только x64).
Текущее выделение графических адаптеров и режим их работы можно проверить следующей командой на сервере VMware ESXi:
# gpuvm
Вывод будет примерно таким:
# gpuvm
Xserver unix:0, GPU maximum memory 2076672KB
pid 118561, VM “Test-VM-001”, reserved 131072KB of GPU memory
pid 664081, VM “Test-VM-002”, reserved 261120KB of GPU memory
GPU memory left 1684480KB
За дальнейшими подробностями можно проследовать в документ "Graphics Acceleration in VMware
Horizon View Virtual Desktops". Таги: VMware, View, VDI, Hardware, Horizon, vSGA, vDGA
VMware выпустила vSphere 5.5 Update 1 и финальную версию Virtual SAN 1.0.
Недавно мы писали о том, что компания VMware планирует выпуск решения для создания кластеров хранилищ на базе локальных дисков серверов - VMware Virtual SAN. И вот это случилось - вышла первая версия VMware Virtual SAN 1.0 и обновление VMware vSphere 5.5 Update 1, в котором есть поддержка VSAN (кстати, апгрейд с бета-версий VSAN на релизную не поддерживается). Для ESXi и vCenter апдейт с прошлой версии является кумулятивным, поэтому нет нужды накатывать предыдущие патчи для 5.5.

Помимо поддержки VMware VSAN, в платформе VMware vSphere 5.5 Update 1 добавились следующие функции:
- Плагин клиента vCloud Hybrid Service теперь доступен в vSphere Web Client.
- vCenter Server теперь полностью поддерживается на платформе Windows Server 2012 R2.
- Множественные исправления ошибок.
Надо отметить, что для поддержки VMware Virtual SAN обновилась не только платформа VMware vSphere, но и решение для виртуализации настольных ПК VMware Horizon View, которое теперь поддерживает размещение десктопов на хранилищах VSAN. Поэтому приведем ниже основные ссылки на обновившиеся компоненты:
Кстати, для тех, кто хочет узнать о том, как начать использовать VSAN с VMware Horizon View, есть вот такая KB 2073795.
В составе vSphere обновились также следующие компоненты до новых версий:
- vSphere Replication 5.5.1 (скачать)
- vSphere Data Protection 5.5.6 (скачать)
- VMware vCenter Orchestrator appliance 5.5.1 (скачать)
Но это еще не все. Обновились также и другие продукты VMware, чтобы обеспечить поддержку VSAN:
- VMware vCloud Director 5.5.1 (скачать)
- VMware vCenter Operations Manager Advanced 5.8.1 (скачать)
- VMware vCenter Hyperic 5.8.1 Server (и agent) (скачать)
- VMware vCenter Site recovery manager 5.5.1 (скачать)
- VMware vCloud Application Director 6.0.1 (скачать)
Централизованно все обновленные компоненты решений VMware можно найти по этой ссылке.
А вот в какой последовательности стоит обновлять эти компоненты, если у вас много продуктов VMware, и вы хотите внедрять VSAN:

* Если вы используете Cisco Nexus 1000V, см. KB 2057795
** Если вы используете vSphere Storage Appliance, убедитесь, что vCenter Server был обновлен минимум до версии vSphere 5.1 Update 1, чтобы он поддерживал vSphere Storage Appliance 5.5.
Напомним также все наши посты о решении VMware Virtual SAN:
Ну и последнее, но не менее важное. Практически одновременно с релизом VSAN 1.0 компания VMware выпустила очень полезный документ "VMware VSAN Design and Sizing Guide", в котором приводятся различные рекомендации по построению инфраструктуры VSAN, а также выбору числа дисков, памяти и других параметров и количества хост-серверов VMware ESXi.
Также в документе приведены практические примеры по расчету необходимого числа хостов и дисковой емкости:

Документация по VMware VSAN доступна тут. Таги: VMware, VSAN, Virtual SAN, vSphere, Update, Storage
Новые стенсилы (Visio Stencils) от Veeam для документирования виртуальной инфраструктуры VMware vSphere и Microsoft Hyper-V.
Мы постоянно рассказываем о новых стенсилах, иконках, шаблонах и диаграммах, которые позволяют вам документировать виртуальную инфраструктуру, когда вы создаете презентации и различные схемы (например, тут, тут и тут). На днях компания Veeam Software обновила свои бесплатные стенсилы для Visio, которые теперь доступны в двух вариантах - 3D и 2D.
Стенсилы 2D-формата выполнены в стиле Windows Metro и позволяют создавать схемы в простом "плоском" стиле:

Среди шаблонов Veeam вы сможете найти следующие объекты виртуальной инфраструктуры как VMware, так и Microsoft:
- Хосты ESXi и Hyper-V
- Виртуальные датацентры
- Серверы SC VMM
- Локальные и общие хранилища
- Логические тома LUN
- Виртуальные машины (в различных состояниях)
- Сетевые адаптеры (NICs)
- Виртуальные сети и многое другое
Скачать бесплатные стенсилы Veeam для VMware и Microsoft можно по этой ссылке. Таги: Veeam, Visio, VMware, Microsoft, vSphere, Hyper-V, Update, Graphics
10 марта выходит VMware Virtual SAN (VSAN) - основные особенности.
Мы уже очень много писали про технологию VMware VSAN, которая позволяет создать кластер из локальных хранилищ хостов VMware ESXi (например, последнее - тут, тут и тут). На днях стало известно, что 10 марта состоится релиз этого решения, которое будет поставляться как дополнение к VMware vSphere, либо как предустановленное решение на брендовых серверах.


VSAN - один из самых серьезных и сложных продуктов VMware. В его тестировании приняло участие более 12 тысяч пользователей, и вот версия 1.0 уже почти готова.
Какие особенности будут у финальной версии VMware Virtual SAN:
- Технологию Virtua SAN будет поддерживать новый релиз платформы виртуализации vSphere 5.5 Update 1, который, очевидно, будет выпущен вместе с VSAN. Также будет поддерживаться и решение VMware Horizon View.
- Апгрейд бета-версий VSAN на релизную версию поддерживаться не будет.
- Стоимость и комплектация изданий будут известны вместе с выходом продукта 10 марта.
- Обещают, что производительность кластера VSAN будет масштабироваться линейно по мере роста количества узлов в нем.
- В кластере хранилищ VSAN поддерживается до 32-х узлов. Минимально нужно 3 хоста ESXi.
- На одном узле поддерживается работа до 100 виртуальных машин. Всего, таким образом, получается до 3200 машин в кластере.
- Для работы кластера на каждом узле должны быть как SSD-диски (как минимум один), так и HDD-накопители. Если чего-то из этого нет - работать не будет.
- Максимально на одном узле поддерживается до 35 HDD-дисков и до 5 SSD-дисков (один SSD на 7 HDD, то есть каждые 7 дисков обязательно требуют твердотельный диск емкостью около 0.1 от совокупной емкости этих HDD).
- Суммарно поддерживаемая емкость кластера = 35 дисков * 32 хоста = 4.4 петабайта хранилища.
- Где можно использовать VSAN (например): для VDI-инфраструктуры, среднекритичные нагрузки (Tier 2/3) и DR-сценарии (хранилища резервной площадки).
-
Минимальная скорость адаптера на хосте ESXi - 1 Гбит, но чтобы все работало надежно, очень рекомендуется строить сеть на адаптерах 10 Гбит. А все потому, что репликация идет синхронно.
- Дедупликации пока не будет.
- Производители оборудования, такие как Dell, HP и Cisco будут поддерживать VSAN и серверы "VSAN Ready". Вот тут можно посмотреть на список совместимого с VSAN оборудования. В день релиза станут доступными аж 13 готовых к VSAN конфигураций.
- Ввод-вывод на узле кластера разгоняли до 2-х миллионов IOPS (IOmeter 100% read, 4KB block size, а также 640K IOPS с профилем нагрузки 70/30 read/write и 4KB block size).
- Многие видели, что поддерживается совместная работа технологии VSAN с некоторыми решениями VMware, такими как vSphere Replication. Теперь также будет поддерживаться vSphere Data Protection for backups, vMotion, DRS, HA и многое другое.
Ну что ж, ждем с нетерпением выхода этой штуки, которая может оказаться весьма полезной многим. Таги: VMware, VSAN, Update, Storage, HA, vSphere, DR
Как вернуть SSD-накопитель, который был создан как устройство vFlash, хосту VMware ESXi.
Достаточно давно мы писали о технологии VMware vFlash (теперь она называется vSphere Flash Read Cache), которая пришла на смену технологии Swap-to-SSD - она позволяет использовать локальные SSD-диски хостов VMware ESXi для задач кэширования. Напомним, что Flash Read Cache позволяет использовать кэширование данных только на чтение для дисков VMDK виртуальных машин, работает она на уровне гипервизора и существенно улучшает производительность виртуальных машин, которые интенсивно используют подсистему ввода-вывода для операций на чтение.
Очевидно, что SSD-кэш, который по производительности находится между оперативной памятью и обычными дисками, существенно повышает быстродействие в системах, где периодически наблюдается недостаток ресурсов RAM. Все это дело работает в кластере до 32 хостов ESXi.
Однако, иногда вам может понадобиться вернуть SSD-накопитель хосту ESXi, чтобы использовать его для других задач. Можно попробовать отключить использование ресурсов vFlash для всех виртуальных машин хоста, затем пойти в раздел "Virtual Flash Resource Management" и выбрать опцию "Remove All" - но это не сработает. Появятся следующие ошибки:
Host’s virtual flash resource is inaccessible.
The object or item referred to could not be found.


Чтобы вернуть диск SSD снова в строй понадобится удалить специальный раздел - vFlash File System partition. Для этого нужно сначала его найти. Выполняем команду:
ls /vmfs/devices/disks

Тут мы видим нашу SSD-партицию (видим в середине буквы "SSD" - не ошибитесь - нам нужен раздел без ":1"):
disk ID “t10.ATA_____M42DCT032M4SSD3__________________________00000000121903600F1F”
Сносим эту партицию с помощью утилиты partedutil, используя найденный Disk ID:
partedutil delete "/vmfs/devices/disks/t10.ATA_____M42DCT032M4SSD3__________________________00000000121903600F1F" 1
Что-то вроде этого:

После чего мы видим, что диск SSD освободился и его можно использовать на хосте VMware ESXi:

Источник.
Таги: VMware, ESXi, SSD, Storage, vFlash, Blogs
Вышел релиз-кандидат StarWind SAN V8 - еще больше новых возможностей с прошлой беты.
На днях компания StarWind Software выпустила долгожданный Release Candidate своей новой версии решения для создания отказоустойчивых хранилищ под виртуализацию - StarWind SAN V8 RC. Напомним, что несколько ранее вышла третья бета-версия данного продукта. Ну а в текущей версии появилось еще несколько новых возможностей, которых не было в предыдущих бетах.





Итак, окончательно определился список новых возможностей StarWind V8, которые мы увидим в финальном релизе продукта:
- L2 Flash Cache - кэш уровня L2, который работает непосредственно с кэшем уровня L1 в RAM, что существенно улучшает производительность.
- Файловая система LSFS, которая изначально работает с большими блоками данных, что положительно сказывается на сроке службы флеш-накопителей (SSD), на которых размещаются виртуальные машины (это дело недалекого будущего). Файловая система LSFS преобразовывает small random writes в большие последовательные операции записи, что также существенно увеличивает производительность.
- Inline-дедупликация StarWind, которая не создает нагрузку на подсистему хранения и не "крадет" IOPS'ы у продуктивного хранилища.
- Улучшенный интерфейс мастеров развертывания хранилищ для Windows Server 2012 с поддержкой скриптов PowerShell.
- Возможность интеграции с механизмом SMI-S для Windows Server 2012 R2.
- Massive Scale-Out storage architecture - возможность масштабирования узлов кластера хранилищ до любого числа (а не только 3 как сейчас).
- Asynchronous WAN-replication - возможность асинхронной репликации между узлами и возможность создания катастрофоустойчивого решения для хранилищ. Теперь также возможна репликация даже на очень медленных каналах.
- Поддержка примитивов VAAI для устройств на одном узле и устройств с синхронной репликацией: поддерживаются команды WRITE SAME, EXTENDED COPY, ATS.
- Репликация конфигурации узла, включая информацию о снапшотах, что позволяет в случае сбоя сохранить созданную оригинальную конфигурацию и реплицировать ее уже, например, на третий узел.
- VSS-провайдеры для поддержки устройств с LSFS - появились Hardware VSS provider (для устройств с синхронной/асинхронной репликацией) и Software VSS Provider (только для обычных LSFS-устройств).
- Утилита NAS Configurator - помогает сделать экспорт NFS/SMB-шары для использования в кластерах StarWind High Availability или MS Cluster.
- Утилита VSA Builder - позволяет развернуть готовую виртуальную машину StarWind VSA на серверах VMware ESXi.
- V2V Converter в StarWind Management console - теперь прямо из консоли можно конвертировать файлы дисков виртуальных машин из формата VMDK в VHD и обратно, а также из/в нативный формат IMG StarWind.
Release notes по продукту StarWind SAN V8 доступны здесь. Скачать релиз-кандидат можно по этой ссылке. До финальной версии осталось совсем чуть-чуть.
Таги: StarWind, SAN, Update, Storage, iSCSI
Еще одно полезное средство на VMware Labs - Horizon View Configuration Tool для автоматизации развертывания VDI-инфраструктуры.
Те из вас, кто имеет отношение к администрированию инфраструктуры VMware vSphere, наверняка знают о проекте VMware Labs, где сотрудники VMware выкладывают "неофициальные" утилиты и средства под управлению виртуальной инфраструктурой. У нас описание большинства из них можно найти по тэгу Labs.
На этот раз было выпущено весьма полезное средство - Horizon View Configuration Tool. Оно позволяет автоматизировать установку и первичную настройку решения VMware Horizon View 5.3, устранив сложность и ручные операции по инсталляции, что особенно полезно, когда вы делаете это в небольшой инфраструктуре или в целях тестирования.

Штука очень полезна для начинающих, а большой плюс еще и в том, что Horizon View Configuration Tool поставляется в виде виртуального модуля (Virtual Appliance) готового к использованию.
Вы просто указываете исошник с Windows Server 2008 R2 SP1, целевой хост VMware ESXi, а также несколько параметров (+лицензии) - и View Configuration Tool автоматически развернет виртуальную машину и компоненты в ней.
А именно, что будет развернуто:
- Виртуальная машина с контроллером домена, где Active Directory будет соответствующим образом настроена (можно интегрировать решение с уже существующим контроллером). Для новой инсталляции AD нужна будет подсеть, в которой не работает DHCP-сервер.
- Виртуальная машина с основным сервером Horizon View Connection Server (брокер соединений и консоль администратора).
- Виртуальная машина с компонентом Horizon View Composer для создания пулов виртуальных ПК на базе связанных клонов.
- Виртуальный модуль vCenter Server Appliance, настроенный для работы с инфраструктурой виртуальных ПК.
В качестве гипервизора поддерживается VMware ESXi 5.1 U1 или более поздняя версия (рекомендуется ESXi 5.5). Для развертывания всех компонентов инфраструктуры потребуется минимум 250 ГБ дискового пространства на виртуальных хранилищах (отдельно нужно еще место под сами виртуальные ПК). Для начала работы потребуется также продукт VMware Studio, который можно скачать по этой ссылке.
Для тех, кому хочется подробностей - есть документ "VMware Horizon View Configuration Tool Quick Start Guide".
Скачать виртуальный модуль Horizon View Configuration Tool можно по этой ссылке (~5 ГБ). Таги: VMware, Labs, View, Horizon, VDI, Virtual Appliance
SUSE Cloud 3 - облачная IaaS-инфраструктура на базе OpenStack с поддержкой VMware.
Не так давно мы писали про поддержку компанией VMware архитектуры OpenStack, которая предоставляет специальный виртуальный модуль для интеграции с этой облачной архитектурой (а вот тут - про поддержку со стороны Red Hat). Ну а на днях немецкая компания SUSE (с некоторых пор очень дружащая с VMware) выпустила свою облачную платформу SUSE Cloud 3 на базе платформы OpenStack с поддержкой инфраструктур VMware vSphere.
SUSE Cloud 3 предназначена для построения IaaS-инфраструктур как сервис-провайдеров, так и для частных облаков компаний, предоставляющих своим пользователям ресурсы сервисов виртуализации, в том числе на базе гипервизора VMware ESXi. Облако SUSE Cloud третьей версии построено на базе релиза Havana архитектуры OpenStack.


Особенности SUSE Cloud 3:
- Улучшенные средства управления. Модуль оркестрации позволяет автоматизировать операции с виртуальными машинами на базе предопределенного набора шаблонов сценариев. Теперь можно управлять последовательностью действий для таких объектов, как серверы, "плавающие" IP-адреса, тома и домены безопасности для определенных приложений, при этом определяется взаимосвязь между объектами.
- Модуль Telemetry предоставляет средства мониторинга использования ресурсов облака объектами инфраструктуры, а также пользователями. Собранные данные могут отдаваться биллинговым системам. Кроме того, модуль Telemetry интегрируется с модулем Orchestration, что позволяет, например, развертывать и списывать ресурсы (виртуальные машины) по мере нарастания и спада нагрузки, соответственно.
- Возможность использовать в качестве бэкэнд-инфраструктуры инсталляцию VMware vSphere (связь происходит через сервер vCenter), при этом поддерживается решение для виртуализации сетей VMware NSX. Кроме ESXi поддерживаются также гипервизоры KVM, Xen и Microsoft Hyper-V.
- Упрощенная процедура развертывания компонентов облака и их обновления. Установщик SUSE Cloud 3 построен на базе проекта Crowbar, который позволяет автоматизировать операции развертывания.
- SUSE Cloud 3 включает в себя поддержку компонентов архитектуры OpenStack Block Storage (Cinder) и OpenStack Networking (Neutron), а также поддерживает все необходимые OpenStack API, что позволяет использовать множество решений от партнеров OpenStack.
- В состав платформы включен Cloud Administration Server - централизованная консоль управления облачной инфраструктурой, а также узлы Cloud Control Nodes (управление пользователями и правами), Compute Nodes (вычислительные ресурсы - исполнение ВМ) и Storage Nodes (хранилища данных). Кроме этого используются модули Nova (контроллер вычислительных ресурсов), Glance (библиотека образов и развертывание ВМ), а также средство аутентификации Keystone. Интерфейс управления построен на базе компонента Dashboard.
- Также в дистрибутив включены драйверы EMC, что позволяет управлять хранилищами EMC VNX прямо из коробки.
Пробную версию дистрибутива SUSE Cloud 3 можно скачать по этой ссылке. Детальная информация по платформе доступна тут. Ну а средства управления в виде виртуальных модулей можно скачать здесь. Таги: SUSE, Cloud, Update, OpenStack, VMware, vSphere, Linux
Обновился документ "Security of the VMware vSphere Hypervisor" - безопасность ESXi.
Те из вас, кто интересуется безопасностью виртуальной инфраструктуры VMware vSphere, наверняка знают такое нужное руководство, как "VMware vSphere Hardening Guide", которое предоставляет рекомендации и практичные советы по комплексной защите виртуальной инфраструктуры, включая хосты, виртуальные машины, сервер vCenter и т.п.
Однако этот документ - еще не все, что есть полезного на тему безопасности от VMware (кстати, централизованно все ресурсы находятся в VMware Security Center). Недавно обновился документ "Security of the
VMware vSphere Hypervisor" (25 страниц), который описывает инфраструктуру безопасности непосредственно хоста ESXi на уровне ядра и интерфейсов.

Содержание документа:
- Secure Virtual Machine Isolation in Virtualization
- Virtualization Extensions
- Instruction Isolation
- Memory Isolation
- Memory Protection
- Device Isolation
- Device Access to Hardware
- I/O Remapping
- Resource Provisioning, Shares, and Limits
- Provisioning
- Shares
- Limits
- Network Isolation
- ESXi Networks
- Virtual Machine Networks
- Virtual Networking Layer
- Virtual Switches
- Virtual Switch VLANs
- Virtual Ports
- Virtual Network Adapters
- Virtual Switch Isolation
- Virtual Switch Correctness
- Virtualized Storage
- Linked Clones
- Raw Device Mapping
- I/O Path
- SAN Security
- iSCSI Security
- VMFS
- NFS Security
- Secure Management
- Administrative Interfaces
- VMware vSphere ESXi Shell
- Network Access to Administrative Interfaces
- Management Interface Firewall
- Security of Management Protocols
- Administrative User Access
- Platform Integrity Protection
- Secure Software Packaging
- Software Assurance and Integrity Protection
- VMware Secure Development Life Cycle
Документ отличает высокий технический уровень, который позволяет понять процессы, происходящие в недрах ESXi. Вот так, например, выглядит схема прохождения инструкций процессора на различных уровнях:

А вот так - использование физической и виртуальной памяти хостов виртуальными машинами:

Ну и вообще в документе немало интересного. Таги: VMware, ESXi, Security, Whitepaper, Update
Использование утилиты esxtop для обнаружения проблем с хранилищами VMware ESXi
Таги:
Программа для виртуализации сети филиалов VMware vSphere Essentials ROBO.
Как знают пользователи VMware vSphere из сегмента малого и среднего бизнеса, для пакетов VMware vSphere Essentials Plus (или обычного Essentials) есть специальное издание vCenter Server Essentials, которое позволяет управлять не более чем тремя хостами ESXi для соответствующих изданий. На самом деле, это обычный vCenter Server Foundation, который приспособлен для Essentials (Plus).
Ограничение на 3 хоста, не более 2-х процессоров в каждом - это условие лицензии VMware. Однако раньше можно было сделать вот какой хак - купить две лицензии Essentials/Essentials Plus и один сервер vCenter Standard - и можно управлять инфраструктурой (например в стойках, размещенных на разных этажах или в разных филиалах) из одной точки. Это как бы не совсем по лицензии, но в целом к такой конфигурации никто претензий не имел.
Однако, начиная с VMware vSphere 5.0, ситуация изменилась - теперь в таком случае появляется ошибка vCenter:

На такой случай компания VMware теперь предлагает программу Retail and Branch office, кратко называемую "ROBO". Она позволяет вам купить лицензии Essentials/Essentials Plus на 10 физических процессоров серверов и управлять ими всеми с одного сервера vCenter. Это отлично подходит для тех компаний, которые имеют несколько филиалов, и у которых есть необходимость объединить их единой точкой управления.

Отдельным аддоном можно купить 10 лицензий VMware Virtual Storage Appliance, которые подходят только для Essentials Plus:

Надо понимать, что в случае лицензирования по программе ROBO - вы можете управлять каждым сайтом Essentials/Essentials Plus отдельно, либо купить еще лицензию на vCenter Standard - и управлять всеми инфраструктурами филиалов централизованно (поддерживается до пяти площадок). Последний вариант, конечно же, удобнее.
Лицензии на 10 процессоров хостов ESXi вы можете как удобно распределить между филиалами. Таги: VMware, vSphere, ROBO, Essentials, SMB
Обучение на VCP для тех, кто не хочет на курсы (для хикки), или тех, кто хочет дешевле (для бережливых).
Как знают те из вас, кто интересуется программами обучения VMware, сертификация VMware VCP, являющаяся одной из самых востребованных на рынке, требует предварительного прохождения авторизованных учебных курсов и последующей сдачи экзаменов.
Так вот, с недавних пор, курсы эти можно пройти дома или у себя в офисе, при этом они будут полностью соответствовать требованиям программы VMware Certified Professional. На данный момент доступны курсы только по VMware vSphere 5.1, но эта сертификация по-прежнему действующая и вполне катит под требования к партнерской программе VMware, например.
Сейчас вот тут доступны следующие курсы (только английский):
Курс Install, Configure, Manage содержит в себе 24 лабораторных работы, которые выполняются в облачном окружении. Вот список лаб, если кому интересно:
- Lab 1: Installing VMware vSphere Graphical User Interfaces Lab
- Lab 2: Configuring VMware ESXi
- Lab 3: Working with Virtual Machines
- Lab 4: Configuring the vCenter Server Appliance
- Lab 5: Standard Virtual Switches
- Lab 6: Accessing ISCI Storage
- Lab 7: Accessing IP Storage
- Lab 8: Managing VMware vSphere VMFS
- Lab 9: Using Templates and Clones
- Lab 10: Modifying a Virtual Machine
- Lab 11: Migrating Virtual Machines
- Lab 12: Managing Virtual Machines
- Lab 13: Managing vApps
- Lab 14: Access Control
- Lab 15: User Permissions
- Lab 16: Resource Pools
- Lab 17: Monitoring Virtual Machine Performance
- Lab 18: Using Alarms
- Lab 19: Using vSphere High Availability
- Lab 20: Designing a Network Configuration
- Lab 21: Configuring VMware vSphere Fault Tolerance
- Lab 22: vSphere Distributed Resource Scheduler
- Lab 23: VMware vSphere Update Manager
- Lab 24:Installing VMware vCenter Server
Само обучение доступно в течение 30 дней или 30 часов активного времени, в зависимости от того, что истечет раньше. Для тех, кто хочет посмотреть, что это такое, есть бесплатная возможность посмотреть первые два следующих модуля:
- Module 1: Course Introduction and Logistics
- Module 2: Introduction to VMware Virtualization, which includes:
Доступны они будут в течение 90 минут. Получить бесплатный доступ к ним можно по этой ссылке.
Правда стоит это удовольствие чуть больше, чем дофига:

Зато можно пройти его в любое время, ведь курсы (в том числе онлайн) проводятся далеко не каждый день.
Ну а для тех кто хочет дешевле (в два раза, между прочим!) мы советуем авторизованные курсы от HP. Это не реклама - там просто дешевле, чем в любом другом месте + дают бесплатный ваучер на сдачу экзамена:

Нашли дешевле (с учетом ваучера)? Пишите в каменты!
Таги: VMware, VCP, Update, vSphere, View
Как перезапустить Management Network на VMware ESXi из командной строки.
Многим администраторам виртуальной инфраструктуры VMware vSphere зачастую приходится перезапускать Management Network после различных операций с хостом VMware ESXi (например, чтобы обновить аренду IP-адреса у DHCP-сервера).
Делается это из консоли сервера ESXi (DCUI) в пункте меню "Restart Management Network":

Напомним, что доступ к графическому интерфейсу консоли сервера (DCUI) можно получить и по протоколу SSH, выполнив команду:
# dcui
Однако многие хотели бы рестартовать сеть ESXi консольной командой ESXCLI, которую можно выполнить, например, из vSphere Management Assistant. Для этого нужно просто отключить и включить сетевой интерфейс VMkernel на хосте. Делается это через пространство имен esxcli network.
При этом, поскольку вы подключены к ESXi через этот интерфейс, то нужно, чтобы две команды (отключение и включение) были выполнены обязательно вместе. Делается это добавлением точки с запятой (";") между командами.
Итак, узнаем имя интерфейса командой:
esxcli network ip interface ipv4 get
Далее отключаем и включаем интерфейс vmk0, что соответствует функции Restart Management Network в графическом интерфейсе хоста:
esxcli network ip interface set -e false -i vmk0; esxcli network ip interface set -e true -i vmk0

Таги: VMware, ESXi, vNetwork, Networking, VMachines, Blogs
Интересная багофича - как получить больше от вашей лицензии StarWind iSCSI SAN.
Продолжаем рассказывать о решении StarWind iSCSI SAN, предназначенном для создания отказоустойчивых iSCSI-хранилищ для виртуальных машин (есть версия как для VMware, так и для Hyper-V).
Интересное письмо пришло нам от нашего читателя Вадима Базильяна :)

Решил изложить вам баг (или фичу), найденный мною в продукте.
Собственно, история. Имею 2 сервера с большой внутренней дисковой корзиной. Внешней дисковой полки нет.
Решил из этого дела сделать VMware-кластер, а общее хранилище поднять на 2-х машинках StarWind в HA-кластере для надежности.
Скачал дистрибутив, получил триальный ключик который позволяет делать HA-пару с диском на 128 ГБ. Установил ESXi, поднял на каждом по винде, внутрь установил ПО. Собрал тестовый кластер с диском на 90 ГБ, поиграл с ним, все замечательно...
Начал делать второй диск высокой доступности, как и следовало ожидать если пытаться сделать его больше 38 ГБ, система ругается, что превышен порог лицензии. Ну думаю ладно, сделал его несколько меньше, все засинхронилось все ОК.
А теперь самое интересное ;) Берем и говорим "расширь нам диск", и все спокойно расширяется сверх установленного лимита ;)

Ну, собственно, дальше логика понятна, как можно обойти ограничение установленные лицензией.

Пользуйтесь пока :) А мы все ждем новую версию StarWind V8, о которой мы подробно писали вот тут. Таги: StarWind, iSCSI, SAN, Bug, Bugs, Storage
Обновился документ vSphere 5.5 Monitoring and Performance - мастрид для администраторов VMware.
На днях компания VMware обновила свой главный документ о производительности и мониторинге виртуальной инфраструктуры - VMware vSphere 5.5 Monitoring and Performance.

В этом документе (или даже, можно сказать, книге) на 175 страницах рассказывается о лучших практиках по отслеживанию производительности серверов VMware ESXi 5.5 под управлением VMware vCenter 5.5.
Основное содержание документа:
- Monitoring Inventory Objects with Performance Charts - полное описание графиков и счетчиков производительности в VMware vCenter.
- Monitoring Guest Operating System Performance - немного о мониторинге гостевой ОС виртуальной машины.
- Monitoring Host Health Status - проверка жизнедеятельности хостов и выявление проблем.
- Monitoring Storage Resources - построение отчетов по хранилищам и графическое представление Storage maps.
- Monitoring Events, Alarms, and Automated Actions - просмотр событий для объектов vCenter, алармы и действия по срабатыванию триггеров.
- Monitoring Solutions with the vCenter Solutions Manager - мониторинг расширений vCenter.
- Performance Monitoring Utilities: resxtop and esxtop - утилиты для мониторинга производительности из командной строки (там же есть расшифровки всех счетчиков). Об этом мы пишем тут.
- Monitoring Networked Devices with SNMP and vSphere - мониторинг хостов по протоколу SNMP и настройка агентов.
- System Log Files - просмотр активностей виртуальной инфраструктуры в лог-файлах журналов.
Документ обязателен к прочтению системным администраторам VMware vSphere, а также всем тем, кто готовится к различным экзаменами, например VMware VCP. Таги: VMware, vSphere, Performance, Whitepaper, Update
Что находится внутри VMware Tools в VMware vSphere 5.5 + параметры их установки.
Интересную статью об установке VMware Tools недавно написал Андрэас. Приведем здесь основные моменты. Итак, во время установки VMware Tools в Windows-машине на VMware vSphere мы видим следующие компоненты:

Для многих организаций важно, какое именно ПО устанавливается на сервер или рабочую станцию, чтобы можно было не устанавливать ненужные сервисы и компоненты, увеличивающие площадь атаки для злоумышленника.
Кроме этого, интересно, конечно же, взглянуть на то, что находится внутри MSI-пакета setup.exe (или setup64.exe для 64-битных систем), который находится в установочном образе VMware Tools ISO, а также узнать о параметрах его установки.
Итак, берем утилиту Microsoft Orca editor из состава Windows Installer Development Tools, открываем наш MSI-пакет и переходим на вкладку Features. Там мы видим следующее дерево компонентов (то, что выделено жирным - отсутствует в GUI):
- Toolbox (Toolbox)
- Perfmon (WMI Performance Logging) - не устанавливается для Workstation/Fusion.
- Unity (Support for Unity feature) - поддержка функций Unity - только для Workstation/Fusion.
- Plugins
- TrayIcon (Display the Tray Icon) - иконка тулзов в трее, можно отключить, если поставить свойство MSI-пакета NO_TRAYICON=1.
- Drivers (VMware Device Drivers)
- PVSCSI (Paravirtual SCSI) - драйвер паравиртуализованного виртуального диска, недоступен если ОС Windows 2000 или более старая.
- MemCtl (Memory Control Driver) - драйвер управления памятью для поддержки технологии Memory Ballooning.
- Mouse (PS2 Mouse Driver) - драйвер мыши PS2 (legacy).
- MouseUSB (USB Mouse Driver) - драйвер мыши USB.
- SVGA (SVGA Driver) - видеодрайвер.
- Audio (Audio Driver) - аудиодрайвер, устанавливается по умолчанию, не ставится для Windows XP-32bit, Windows 2000 и более ранних ОС.
- VMXNet (VMXNet NIC Driver) - драйвер виртуального сетевого адаптера первого поколения, устанавливается по умолчанию для ОС Windows 2000/XP/2003/2008/2008R2.
- VMXNet3 (VMXNet3 NIC Driver) - драйвер последнего поколения виртуального сетевого адаптера, устанавливается по умолчанию, не ставится для Windows 2000 и более ранних.
- VSS (Volume Shadow Copy Services Support) - поддержка механизма VSS (в том числе для систем резервного копирования). Устанавливается для Windows 2003/Vista и более поздних. Не устанавливается, если хотя бы один из сервисов ComSysApp или MSDTC отключен.
- VMCI (VMCI Driver)
- VShield (vShield Drivers) - не отмечен по умолчанию, ставится только если машина работает на ESXi в Windows XP SP2+/2003 SP1+ или более поздних версиях.
- Hgfs (Shared Folders) - компонент общих папок между хостом и гостевой ОС для VMware Fusion/Workstation (для них устанавливается по умолчанию, для ESXi по умолчанию отключен).
- BootCamp (Mac BootCamp Support - VMware Fusion only) - устанавливается только для VMware Fusion/Workstation, начиная с Windows XP.
- Buslogic (SCSI Driver) - устанавливается только для Windows 2000 и 32-битных версиях XP/2003. В других случах не ставится.
- Sync (Filesystem Sync Driver) - устанавливается только на ESXi и только для Windows 2000 и 32-битных версиях XP/2003. Необходим для систем резервного копирования для "заморозки" файловой системы во время снятия бэкапа, чтобы он получился консистентным. На более поздних ОС уже работает VSS-компонент.
- WYSE (Wyse Multimedia Support) - поддержка терминалов WYSE. Не устанавливается по умолчанию, доступно только на Windows XP и 2003.
- Common
Как можно заметить, устанавливаются или нет некоторые компоненты при установке VMware Tools зависит от того, какая версия Windows используется, ну и, конечно, где устанавливается пакет - на VMware ESXi или на настольной платформе VMware Workstation/Fusion.
В документации по VMware Tools рассказано о том, как можно добавлять или исключать компоненты из установки, а также устанавливать тулзы в silent-режиме (то есть, без GUI) и без перезагрузки гостевой ОС.
Например, вот такая команда установщика установит VMware Tools в тихом режиме для Windows-на ESXi, при этом у вас не будет ненужных компонентов, а также иконки VMware Tools в трее:
setup[64].exe /s /v /qn ADDLOCAL=All REMOVE=Hgfs,WYSE,Audio,BootCamp,Unity,VShield,TrayIcon
А эта команда сделает то же самое, но еще и предупредит перезагрузку, а также запишет лог установки в специальный файл (это все одна строчка):
setup[64].exe /s /v /qn /l*v "%TEMP%\vmmsi.log" REBOOT=R ADDLOCAL=All REMOVE=Hgfs,WYSE,Audio,BootCamp,Unity,VShield,TrayIcon
Такая команда обновит VMware Tools с момента прошлой установки:
setup[64].exe /s /v /qn REINSTALLMODE=vomus ADDLOCAL=All REMOVE=Hgfs,WYSE,Audio,BootCamp,Unity,VShield,TrayIcon
Более подробно о параметрах установки VMware Tools можно прочитать в KB 2000399.
Если же вы хотите проверить, какие компоненты VMware Tools установлены, то для этого есть скрипт WiListPrd.vbs, вывод которого выглядит следующим образом:
> cscript WiListPrd.vbs "VMware Tools" f

Таги: VMware, Tools, VMachines, ESXi, vSphere, Fusion, Workstation
|
|  |
|